L’intelligenza artificiale ha sempre più applicazioni nella vita quotidiana: pertanto, assume particolare importanza l’algoretica.
Il 10 luglio, sedici leader religiosi globali hanno firmato a Hiroshima la “Rome Call for AI Ethics“, iniziativa promossa dalla Pontificia Accademia per la Vita. Questo documento stabilisce i principi etici che dovrebbero orientare lo sviluppo dell’intelligenza artificiale (IA) nel futuro. Questo evento segna un punto di incontro tra diverse fedi, che concordano su criteri etici essenziali per l’IA. Quali sono, dunque, questi valori “essenziali” e perché sono necessari?
Cos’è l’algoretica in relazione all’intelligenza digitale
La discussione sull’importanza di un’etica per l’IA risale agli anni ’60, anni durante i quali iniziarono a porsi interrogativi sulla potenzialità dell’IA di raggiungere o meno una capacità intellettiva comparabile a quella umana.
L’evoluzione di algoritmi avanzati, influenzanti ambiti che vanno dalla finanza alla giustizia e oltre, presenta vari rischi. Un’IA “senza regole” potrebbe effettuare scelte sbagliate o distorte, compromettere dati personali o influenzare decisioni di consumo e votazioni, modificando i nostri comportamenti.
Da qui, nasce l’esigenza di formulare una “etica degli algoritmi“, o “algoretica“. Il termine, introdotto da Padre Benanti, consulente di Papa Francesco per l’IA, designa lo studio e l’applicazione di principi etici nella progettazione, implementazione e utilizzo degli algoritmi, prevenendo l’insorgere di una “algocrazia“, ovvero il dominio degli algoritmi sulla società.
Rome Call for AI Ethics: i principi dell’etica dell’intelligenza artificiale
La “Rome Call for AI Ethics” propone principi etici volti a proteggere la dignità e l’integrità umana, escludendo logiche di profitto e la sostituzione uomo-macchina, ponendo l’uomo al centro dello sviluppo IA.
Questa iniziativa guadagna forza dall’essere sostenuta sia da ambienti laici che religiosi, proponendo un approccio etico universalistico all’IA.
I principi etici definiti sono:
- Trasparenza: facilitare la comprensione dell’IA per tutti;
- Inclusione: garantire la non discriminazione;
- Responsabilità: assicurare che l’IA rispetti le proprie funzioni;
- Imparzialità: evitare che l’IA influenzi indebitamente il giudizio umano;
- Affidabilità;
- Sicurezza e privacy: proteggere la sfera personale.
L’AI-Act europeo ha cercato, tra difficoltà, di stabilire una normativa per uno sviluppo responsabile ed etico dell’IA, aderendo ai valori europei espressi nella Carta dei diritti fondamentali dell’Unione europea. Questo argomento è stato anche oggetto di discussione nell’ultimo G7.
Perché è fondamentale un’etica dell’IA?
L’Algoretica, secondo il teologo Paolo Benanti, è paragonabile a un guardrail per le macchine algoritmiche, fondamentale per mantenere la giusta direzione, specialmente quando operano autonomamente.
Come evidenziato dall’esperto di IA, Fabrizio Bolognesi, l’algoretica stabilisce limiti per progettisti, sviluppatori, finanziatori e utilizzatori di sistemi di IA, ma anche per noi, per prevenire l’abbandono del pensiero critico e la delega incondizionata alle macchine.
È molto importante, dunque, che ogni individuo si assuma la responsabilità etica nell’utilizzo dei sistemi di IA, attraverso una formazione appropriata e un approccio che integri l’etica umana, in modo da limitare i danni e massimizzare i benefici, garantendo il rispetto dei diritti.
Riproduzione riservata © 2024 - LEO
ultimo aggiornamento: 6 Agosto 2024 10:41